根据数据的选择,模型的适当结构和参数维度的选择在统计研究中具有丰富的历史,在1970年代开发了第一个开创性方法,例如Akaike's和Schwarz的模型评分标准,这些标准受信息理论的启发并体现了基本原理称为Occam的剃须刀。在这些开创性的工作之后,很快就将模型选择确立为自己的研究领域,在计算机科学和统计学中都引起了人们的关注。但是,迄今为止,对于缺乏可能性表达的基于模拟器的模型的评分标准的尝试有限。已经考虑了此类模型的贝叶斯因素,但是已经提出了争论和反对使用它们以及与其一致性有关的问题。在这里,我们使用Jensen--Shannon Divergence(JSD)的渐近性能来得出一种称为JSD-Razor的可能性设置的一致的模型评分标准。分析了JSD-razor与既定的基于可能性方法的评分标准的关系,我们使用合成和真实的建模示例证明了我们标准的有利属性。
translated by 谷歌翻译